Световни новини без цензура!
OpenAI казва, че е започнал да обучава нов водещ A.I. Model
Снимка: nytimes.com
New York Times | 2024-05-28 | 12:27:35

OpenAI казва, че е започнал да обучава нов водещ A.I. Model

OpenAI заяви във вторник, че е започнал да обучава нов водещ модел на изкуствен интелект, който ще наследи технологията GPT-4, която управлява неговия популярен онлайн чатбот, ChatGPT.

Стартиращата компания от Сан Франциско, която е една от водещите в света ИИ. компании, каза в публикация в блог, че очаква новият модел да донесе „следващото ниво на възможности“, тъй като се стреми да изгради „общ изкуствен интелект“ или A.G.I, машина, която може да прави всичко, което човешкият мозък може да направи. Новият модел ще бъде двигател за A.I. продукти, включително чатботове, дигитални асистенти, подобни на Siri на Apple, търсачки и генератори на изображения.

OpenAI също каза, че създава нов Комитет за безопасност и сигурност, за да проучи как трябва да се справи рисковете, породени от новия модел и бъдещите технологии.

„Въпреки че сме горди да създаваме и пускаме модели, които са водещи в индустрията както по отношение на способностите, така и по отношение на безопасността, ние приветстваме силен дебат в този важен момент“, казаха от компанията.

помагайки за разпространението на дезинформация, замяна на работни места и дори заплаха за човечеството. Експертите не са съгласни кога технологичните компании ще достигнат изкуствения общ интелект, но компании, включително OpenAI, Google, Meta и Microsoft постоянно увеличават силата на ИИ. технологии за повече от десетилетие, демонстрирайки забележим скок приблизително на всеки две до три години.

GPT-4 на OpenAI, който беше пуснат през март 2023 г., позволява чатботове и друг софтуер приложения за отговаряне на въпроси, писане на имейли, генериране на курсови работи и анализиране на данни. Актуализирана версия на технологията, която беше представена този месец и все още не е широко разпространена, също може да генерира изображения и да отговаря на въпроси и команди със силно разговорлив глас.

Дни след като OpenAI показа актуализираната версия – наречена GPT-4o – актрисата Скарлет Йохансон каза, че използва глас, който звучи „зловещо подобно на моя“. Тя каза, че е отхвърлила усилията на главния изпълнителен директор на OpenAI, Сам Алтман, да лицензира нейния глас за продукта и че е наела адвокат и е помолила OpenAI да спре да използва гласа. Компанията каза, че гласът не е бил на г-жа Йохансон.

Технологии като GPT-4o научават уменията си, като анализират огромни количества цифрови данни, включително звуци, снимки, видеоклипове, Статии, книги и новини в Уикипедия. New York Times съди OpenAI и Microsoft през декември, твърдейки, че нарушава авторските права на новинарско съдържание, свързано с ИИ. системи.

Дигитално „обучение“ на ИИ. моделите могат да отнемат месеци или дори години. След като обучението приключи, A.I. компаниите обикновено прекарват още няколко месеца в тестване на технологията и фина настройка за обществена употреба.

напускане на компанията. Това предизвика безпокойство, че OpenAI не се бори достатъчно с опасностите, породени от ИИ.

Dr. Sutskever се присъедини към други трима членове на борда през ноември, за да отстрани г-н Алтман от OpenAI, заявявайки, че на г-н Алтман вече не може да се има доверие в плана на компанията да създаде изкуствен общ интелект за доброто на човечеството. След лобистка кампания от съюзниците на г-н Алтман, той беше възстановен пет дни по-късно и оттогава отново потвърди контрола върху компанията.

Dr. Sutskever ръководи това, което OpenAI нарече своя екип за Superalignment, който проучва начини да гарантира, че бъдещият AI. моделите няма да навредят. Подобно на други в тази област, той беше все по-загрижен, че A.I. представляваше заплаха за човечеството.

Ян Лейке, който управляваше екипа на Superalignment с д-р Sutskever, подаде оставка от компанията този месец, оставяйки бъдещето на екипа под съмнение.

OpenAI обедини своите дългосрочни изследвания на безопасността в своите по-големи усилия, за да гарантира, че нейните технологии са безопасни. Тази работа ще бъде ръководена от Джон Шулман, друг съосновател, който преди това оглавяваше екипа, създал ChatGPT. Новият комитет по безопасността ще наблюдава изследванията на д-р Шулман и ще предоставя насоки за това как компанията ще се справи с технологичните рискове.

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!